
Le but de ce notebook est d'optimiser la DataLoader afin de ne pas ralentir la boucle d'apprentissage. L'étude de la performance des solutions optimisées se fera en visualisant les traces du profiler :
Les cellules dans ce notebook ne sont pas prévues pour être modifiées, sauf rares exceptions indiquées dans les commentaires. Les TP se feront en modifiant le code dlojz.py.
Les directives de modification seront marquées par l'étiquette TODO : dans le notebook suivant.
Les solutions sont présentes dans le répertoire solutions.
Notebook rédigé par l'équipe assistance IA de l'IDRIS, juin 2023
Un module PyTorch doit avoir été chargé pour le bon fonctionnement de ce Notebook. Nécessairement, le module pytorch-gpu/py3/1.11.0 :
!module list
Currently Loaded Modulefiles: 1) cuda/11.2 5) openmpi/4.1.1-cuda 9) sparsehash/2.0.3 2) nccl/2.9.6-1-cuda 6) intel-mkl/2020.4 10) libjpeg-turbo/2.1.3 3) cudnn/8.1.1.33-cuda 7) magma/2.5.4-cuda 11) pytorch-gpu/py3/1.11.0 4) gcc/8.5.0(8.3.1:8.4.1) 8) sox/14.4.2 >
Les fonctions python de gestion de queue SLURM dévelopées par l'IDRIS et les fonctions dédiées à la formation DLO-JZ sont à importer.
Le module d'environnement pour les jobs et la taille des images sont fixés pour ce notebook.
TODO : choisir un pseudonyme (maximum 5 caractères) pour vous différencier dans la queue SLURM et dans les outils collaboratifs pendant la formation et la compétition.
from idr_pytools import display_slurm_queue, gpu_jobs_submitter, search_log
from dlojz_tools import controle_technique, compare, GPU_underthehood, plot_accuracy, lrfind_plot, imagenet_starter, turbo_profiler
MODULE = 'pytorch-gpu/py3/1.11.0'
account = 'for@v100'
name = 'pseudo' ## Pseudonyme à choisir
Cette partie permet d'afficher et de gérer la queue SLURM.
Pour afficher toute la queue utilisateur :
display_slurm_queue(name)
Done!
Remarque: Cette fonction utilisée plusieurs fois dans ce notebook permet d'afficher la queue de manière dynamique, rafraichie toutes les 5 secondes. Cependant elle ne s'arrête que lorsque la queue est vide. Si vous désirez reprendre la main sur le notebook, il vous suffira d'arrêter manuellement la cellule avec le bouton stop. Cela a bien sûr aucun impact sur le scheduler SLURM. Les jobs ne seront pas arrêtés.
Si vous voulez annuler un job dans votre queue, décommenter la ligne suivante et remplacer le numéro du job.
#!scancel 2088207
Cette partie debug permet d'afficher les fichiers de sortie et les fichiers d'erreur du job.
Il est nécessaire dans la cellule suivante d'indiquer le jobid correspondant sous le format donné.
*Remarque* : dans ce notebook, lorsque vous soumettrez un job, vous recevrez en retour le numéro du job dans le format suivant : jobid = ['123456']. La cellule ci-dessous peut ainsi être facilement actualisée.
#jobid = ['2088207']
Fichier de sortie :
%cat {search_log(contains=jobid[0])[0]}
/bin/bash: -c: line 0: syntax error near unexpected token `('
/bin/bash: -c: line 0: `cat {search_log(contains=jobid[0])[0]}'
Fichier d'erreur :
%cat {search_log(contains=jobid[0], with_err=True)['stderr'][0]}
/bin/bash: -c: line 0: syntax error near unexpected token `('
/bin/bash: -c: line 0: `cat {search_log(contains=jobid[0], with_err=True)['stderr'][0]}'
Pour le debug ou pour comparer son code avec les solutions mises à disposition, la fonction suivante permet d'afficher une page html contenant un différentiel de fichiers texte.
s1 = "dlojz.py"
s2 = "./solutions/dlojz2_1.py"
compare(s1, s2)
Voir le résultat du différentiel de fichiers sur la page suivante (attention au spoil !) :
On fixe le batch size et la taille d'image pour ce TP.
bs_optim = 512
image_size = 176
TODO : Comparer votre script dlojz.py avec ce qu'il devrait être actuellement. Si il y a des divergences, veuillez les corriger (par exemple en copiant-collant la solution).
s1 = "dlojz.py"
s2 = "./solutions/dlojz2_2.py"
compare(s1, s2)
Voir le résultat du différentiel de fichiers sur la page suivante :
# copier/coller la solution si nécessaire
#!cp solutions/dlojz2_2.py dlojz.py
TODO : implémenter le profiler natif PyTorch dans le script dlojz.py :
from torch.profiler import profile, tensorboard_trace_handler, ProfilerActivity, schedule
--prof.parser.add_argument('--prof', default=False, action='store_true', help='PROF implementation')
prof avec les paramètres du profiler. contextlib.nullcontext() définit un context null lorsque l'on utilise pas le Profiler.# Pytorch profiler setup
prof = profile(activities=[ProfilerActivity.CPU, ProfilerActivity.CUDA],
schedule=schedule(wait=1, warmup=1, active=12, repeat=1),
on_trace_ready=tensorboard_trace_handler('./profiler/' + os.environ['SLURM_JOB_NAME']
+ '_' + os.environ['SLURM_JOBID'] + '_bs' +
str(mini_batch_size) + '_is' + str(args.image_size)),
profile_memory=True,
record_shapes=False,
with_stack=False,
with_flops=False
) if args.prof else contextlib.nullcontext()
prof.#### TRAINING ############
with prof:
for epoch in range(args.epochs):
...
# profiler update
if args.prof: prof.step()
Soumission du job. Attention vous sollicitez les noeuds de calcul à ce moment-là.
Remarques :
--test-nsteps=15--num-workers 0 --no-persistent-workers --no-pin-memory --no-non-blocking --prefetch-factor 2 utilisés dans la commande ci-dessous servent à supprimer certaines optimisations déjà présentes dans le script dlojz.py. Ces optimisations seront détaillées dans le prochain chapitre du cours.Pour soumettre le job, veuillez basculer la cellule suivante du mode Raw NBConvert au mode Code.
command = f'dlojz.py -b {bs_optim} --image-size {image_size} --test --test-nsteps 15 --prof'
command += f' --num-workers 0 --no-persistent-workers --no-pin-memory --no-non-blocking --prefetch-factor 2'
n_gpu = 1
jobid = gpu_jobs_submitter(command, n_gpu, MODULE, name=name,
account=account, time_max='00:10:00', constraint='v100-32g')
print(f'jobid = {jobid}')
batch job 0: 1 GPUs distributed on 1 nodes with 1 tasks / 1 gpus per node and 10 cpus per task Submitted batch job 247996 jobid = ['247996']
Puis, rebasculer la cellule précédente en mode Raw NBConvert, afin d'eviter de relancer un job par erreur.
display_slurm_queue(name)
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
247996 gpu_p13 pseudo cfor132 R 2:27 1 r6i3n0
Done!
#jobid = ['1586932']
TODO : vérifier qu'une trace a bien été générée dans le répertoire profiler/<name>_<jobid>_bs512_is176/ sous la forme d'un fichier .json:
!ls profiler/{name}_{jobid[0]}*
r6i3n0_618575.1687728846984.pt.trace.json
TODO : visualiser cette trace grâce à l'application TensorBoard en suivant les étapes suivantes :

pytorch-gpu/py3/1.11.0 via l'onglet Softwares (icône bleue sur le menu de gauche)--logdir $WORK/DLO-JZ/profiler et cliquer sur LaunchRemarque : le premier démarrage de TensorBoard peut prendre un peu de temps. Il faut parfois faire preuve d'un peu de patience lorsqu'on utilise cet outil mais ça en vaut la peine :)
TODO : en naviguant dans les différents onglets du TensorBoard, chercher à répondre aux questions suivantes :
IMPORTANT : une fois le TP terminé, penser à quitter l'instance JupyterHub pour libérer le GPU ( > Hub Control Panel > Cancel ).

TODO : lancer l'exécution sur 50 itérations (--test-nsteps 50) sans profiling pour passer un contrôle technique qui servira de référence. Cette exécution va prendre quelques minutes, vous pouvez passer à la suite du TP sans attendre la fin de l'exécution.
Soumission du job. Attention vous sollicitez les noeuds de calcul à ce moment-là.
Pour soumettre le job, veuillez basculer la cellule suivante du mode Raw NBConvert au mode Code.
command = f'dlojz.py -b {bs_optim} --image-size {image_size} --test --test-nsteps 50'
command += f' --num-workers 0 --no-persistent-workers --no-pin-memory --no-non-blocking --prefetch-factor 2'
n_gpu = 1
jobid = gpu_jobs_submitter(command, n_gpu, MODULE, name=name,
account=account, time_max='00:10:00', constraint='v100-32g')
print(f'jobid = {jobid}')
batch job 0: 1 GPUs distributed on 1 nodes with 1 tasks / 1 gpus per node and 10 cpus per task Submitted batch job 247999 jobid = ['247999']
display_slurm_queue(name)
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
247999 gpu_p13 pseudo cfor132 R 3:22 1 r6i3n0
Done!
#jobid = ['1587014']
controle_technique(jobid)
Train throughput: 170.67 images/second GPU throughput: 1785.84 images/second epoch time: 7508.89 seconds training time estimation for 90 epochs (with validations): 196.99 hours ----------- training step time average (fwd/bkwd on GPU): 0.286700 sec (39.1%/60.7%) +/- 0.003040 loading step time average (CPU to GPU): 2.713256 sec +/- 0.219599 ----------- ELIGIBLE to run 7 epochs
Pour ce TP, nous avons implémenté un profiler maison léger turbo_profiler basé sur l'outil Chronometer pour visualiser le temps passé sur CPU (DataLoader) et sur GPU (le reste de l'itération). Ce profiler est moins précis mais cela nous permettra de désactiver le profiler PyTorch pour ne pas dégrader les performances et éviter de devoir ouvrir l'outil graphique TensorBoard à chaque fois pour visualiser les informations qui nous intéressent.
TODO : relancer l'exécution précédente en désactivant le profiler PyTorch (sans l'argument --prof) et découvrir le profiler turbo_profiler.
Soumission du job. Attention vous sollicitez les noeuds de calcul à ce moment-là.
Pour soumettre le job, veuillez basculer la cellule suivante du mode Raw NBConvert au mode Code.
command = f'dlojz.py -b {bs_optim} --image-size {image_size} --test --test-nsteps 15'
command += f' --num-workers 0 --no-persistent-workers --no-pin-memory --no-non-blocking --prefetch-factor 2'
n_gpu = 1
jobid = gpu_jobs_submitter(command, n_gpu, MODULE, name=name,
account=account, time_max='00:10:00', constraint='v100-32g')
print(f'jobid = {jobid}')
batch job 0: 1 GPUs distributed on 1 nodes with 1 tasks / 1 gpus per node and 10 cpus per task Submitted batch job 248001 jobid = ['248001']
Puis, rebasculer la cellule précédente en mode Raw NBConvert, afin d'eviter de relancer un job par erreur.
display_slurm_queue(name)
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
248001 gpu_p13 pseudo cfor132 R 1:35 1 r6i3n0
Done!
#jobid = ['1587014']
TODO : visualiser la sortie de turbo_profiler
turbo_profiler(jobid)
>>> Turbo Profiler >>> Training complete in 82.03881 s
L'objectif de ce TP est de réduire le temps passé sur CPU par le DataLoader.
Les différentes optimisations proposées par le DataLoader de PyTorch sont accessibles dans le script dlojz.py via les arguments :
--num-workers <num_workers> (défaut à 10)--persistent-workers (défaut) ou --no-persistent-workers--pin-memory (défaut) ou --no-pin-memory--non-blocking (défaut) ou --no-non-blocking--prefetch-factor <prefetch_factor> (défaut à 3)--drop-last ou --no-drop-last (défaut)TODO : faire varier ces différents paramètres et observer leurs effets grâce au profiler turbo_profiler
Remarque : pour cette étude, on ne lance les exécutions que sur 15 itérations (--test-nsteps 15) pour avancer plus rapidement.
Les différents essais seront stockés dans une DataFrame dataloader_trials :
import pandas as pd
dataloader_trials = pd.DataFrame({"jobid":pd.Series([],dtype=str),
"num_workers":pd.Series([],dtype=int),
"persistent_workers":pd.Series([],dtype=str),
"pin_memory":pd.Series([],dtype=str),
"non_blocking":pd.Series([],dtype=str),
"prefetch_factor":pd.Series([],dtype=int),
"drop_last":pd.Series([],dtype=str),
"loading_time":pd.Series([],dtype=float),
"training_time":pd.Series([],dtype=float)})
Soumission du job. Attention vous sollicitez les noeuds de calcul à ce moment-là.
Pour soumettre le job, veuillez basculer la cellule suivante du mode Raw NBConvert au mode Code.
command = f'dlojz.py -b {bs_optim} --image-size {image_size} --test --test-nsteps 15'
# paramètres d'entrée correspondant aux optimisations du DataLoader
command += ' --num-workers 10'
command += ' --persistent-workers'
command += ' --pin-memory'
command += ' --non-blocking'
command += ' --prefetch-factor 3'
command += ' --no-drop-last'
n_gpu = 1
jobid = gpu_jobs_submitter(command, n_gpu, MODULE, name=name,
account=account, time_max='00:10:00', constraint='v100-32g')
print(f'jobid = {jobid}')
batch job 0: 1 GPUs distributed on 1 nodes with 1 tasks / 1 gpus per node and 10 cpus per task Submitted batch job 248082 jobid = ['248082']
display_slurm_queue(name)
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
248082 gpu_p13 pseudo cfor132 R 0:41 1 r6i3n0
Done!
#jobid = ['1508799']
# call turbo_profiler
dataloader_trial = turbo_profiler(jobid,dataloader_info=True)
# store result in "dataloader_trials" DataFrame
dataloader_trials = pd.concat([dataloader_trials,dataloader_trial], ignore_index=True)
>>> Turbo Profiler >>> Training complete in 23.217102 s
# afficher le tableau récapitulatif, trier par ordre croissant du LOADING_TIME
dataloader_trials.sort_values("loading_time")
| jobid | num_workers | persistent_workers | pin_memory | non_blocking | prefetch_factor | drop_last | loading_time | training_time | |
|---|---|---|---|---|---|---|---|---|---|
| 0 | 248082 | 10 | True | True | True | 3 | False | 0.000365 | 23.217102 |
# afficher le tableau récapitulatif, trier par ordre croissant du TRAINING_TIME
dataloader_trials.sort_values("training_time")
| jobid | num_workers | persistent_workers | pin_memory | non_blocking | prefetch_factor | drop_last | loading_time | training_time | |
|---|---|---|---|---|---|---|---|---|---|
| 0 | 248082 | 10 | True | True | True | 3 | False | 0.000365 | 23.217102 |
TODO : après avoir choisi un lot de paramètres optimal, relancer le job en réactivant le profiler PyTorch (argument d'entrée --prof) afin de visualiser les traces sous TensorBoard, et les comparer avec la version non optimale étudiée dans le TP2_0.
Soumission du job. Attention vous sollicitez les noeuds de calcul à ce moment-là.
Pour soumettre le job, veuillez basculer la cellule suivante du mode Raw NBConvert au mode Code.
command = f'dlojz.py -b {bs_optim} --image-size {image_size} --test --prof --test-nsteps 15'
# définir ici les paramètres optimaux
command += ' --num-workers 10'
command += ' --persistent-workers'
command += ' --pin-memory'
command += ' --non-blocking'
command += ' --prefetch-factor 3'
command += ' --no-drop-last'
n_gpu = 1
jobid = gpu_jobs_submitter(command, n_gpu, MODULE, name=name,
account=account, time_max='00:10:00', constraint='v100-32g')
print(f'jobid = {jobid}')
batch job 0: 1 GPUs distributed on 1 nodes with 1 tasks / 1 gpus per node and 10 cpus per task Submitted batch job 248083 jobid = ['248083']
Puis, rebasculer la cellule précédente en mode Raw NBConvert, afin d'éviter de relancer un job par erreur.
display_slurm_queue(name)
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
248083 gpu_p13 pseudo cfor132 R 0:49 1 r6i3n0
Done!
#jobid = ['1732254']
TODO : vérifier qu'une trace a bien été générée dans le répertoire profiler/<name>_<jobid>_bs512_is176/ sous la forme d'un fichier .json:
!ls profiler/{name}_{jobid[0]}*
r6i3n0_620553.1687729878037.pt.trace.json
TODO : visualiser cette trace grâce à l'application TensorBoard (retrouver la procédure).
IMPORTANT : une fois le TP terminé, penser à quitter l'instance JupyterHub pour libérer le GPU ( > Hub Control Panel > Cancel ).
TODO : lancer l'exécution sur 50 itérations (--test-nsteps 50) sans profiling pour passer un nouveau contrôle technique, à comparer avec celui de référence.
Soumission du job. Attention vous sollicitez les noeuds de calcul à ce moment-là.
Pour soumettre le job, veuillez basculer la cellule suivante du mode Raw NBConvert au mode Code.
command = f'dlojz.py -b {bs_optim} --image-size {image_size} --test --test-nsteps 50'
# définir ici les paramètres optimaux
command += ' --num-workers 10'
command += ' --persistent-workers'
command += ' --pin-memory'
command += ' --non-blocking'
command += ' --prefetch-factor 3'
command += ' --no-drop-last'
n_gpu = 1
jobid = gpu_jobs_submitter(command, n_gpu, MODULE, name=name,
account=account, time_max='00:10:00', constraint='v100-32g')
print(f'jobid = {jobid}')
batch job 0: 1 GPUs distributed on 1 nodes with 1 tasks / 1 gpus per node and 10 cpus per task Submitted batch job 248089 jobid = ['248089']
display_slurm_queue(name)
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
248089 gpu_p13 pseudo cfor132 R 0:48 1 r6i3n0
Done!
#jobid = ['1587014']
controle_technique(jobid)
Train throughput: 1700.00 images/second GPU throughput: 1702.85 images/second epoch time: 753.85 seconds training time estimation for 90 epochs (with validations): 21.22 hours ----------- training step time average (fwd/bkwd on GPU): 0.300673 sec (42.6%/64.4%) +/- 0.069310 loading step time average (CPU to GPU): 0.000504 sec +/- 0.000969 ----------- ELIGIBLE to run 41 epochs
